#AI 產業
DeepSeek V4:是AI開源大事件,更是產業變革新開端
推理效率提升74%、KV快取壓縮90%、API定價不及閉源競品1%。當大模型的邊際成本趨近於零,AI產業的真正變局才剛剛開始。2026年4月24日,DeepSeek在沉寂長達15個月後,正式發佈並開源新一代旗艦模型DeepSeek-V4。這不是一次常規的模型迭代,而是一次從架構底層到價格體系、從算力生態到產業邏輯的全方位重塑。如果說過去兩年AI圈的競爭是“誰能做出更聰明的模型”,那麼從這一天開始,競爭正在轉向:“誰能讓AI變成人人用得起的水電煤”。一、暴力破解的終結:當AI開始“聰明地花算力”DeepSeek-V4系列包含兩款模型:V4-Pro(1.6兆總參數,每次推理啟動490億參數)和V4-Flash(2840億總參數,每次推理啟動130億參數),兩者均原生支援100萬token超長上下文。1M上下文從此不再是一個“高端功能”——一年前它還是Gemini獨家的王牌,如今被DeepSeek直接挪成了行業標配的“水電煤”。這組資料之所以震驚業界,不是因為參數大,而是因為效率做到了前所未有的極致。在100萬token的極端長度下,V4-Pro的單token推理FLOPs僅為上一代V3.2的27%,KV快取佔用僅為10%。V4-Flash則更進一步,只需要10%的單token FLOPs和7%的KV快取。這意味著什麼?處理同樣長度的超長文件,V4不僅讀得更多,而且讀得更快、更省、更穩。效率提升的核心來自一系列值得深挖的架構創新:壓縮稀疏注意力(CSA) :每4個token合併成一個壓縮條目,然後用閃電索引器快速篩選出最相關的少量塊進行注意力計算——“拿著放大鏡找關鍵線索的偵探”。重度壓縮注意力(HCA) :以高達128倍的壓縮率濃縮全域資訊——“站在山頂俯瞰全景的指揮官”。兩者交錯部署在模型的各層中,形成精準定位與全域把握的互補。流形約束超連接(mHC) :給訊號傳播加上“安全閥”,從根本上保證訓練穩定性。Muon最佳化器:取代業界標配的AdamW,進一步降低訓練成本。這一切的底層哲學,不是“堆參數”,而是“每瓦特算力的最大產出”。DeepSeek V4把注意力機製做了一次“手術級”的改造,讓超長上下文從實驗室裡的“高端展示”變成了普通開發者也能跑得動的日常工具。這種效率革命帶來的是價格上的斷崖式下降。DeepSeek V4-Flash每百萬token輸出價僅0.279美元,而同期OpenAI發佈的GPT-5.5 Pro輸出價高達180美元——價差整整645倍。V4-Pro輸出端成本則僅為GPT-5.5 Pro的2%。如果把V4-Pro考慮折扣後的API輸入價壓到0.25元/百萬詞元,與GPT-5.5 Pro加權平均價格30美元/百萬token相比,價差超過700倍。更直觀地說:V4呼叫一次的價格,還不到對手的千分之一。 在推理效率層面,華為昇騰950超節點的測試資料顯示,V4-Pro單卡Decode吞吐可達4700TPS,V4-Flash在8K長序列場景下單卡Decode吞吐1600TPS。DeepSeek V4的回答是:快,是能力的下限;省,才是格局的起點。二、一扇門打開,另一扇門關上當DeepSeek V4以700倍的價格差距直插市場時,它激發的連鎖反應遠遠超出模型本身。開源vs閉源:矽谷在“造牆”,中國在“修路”。矽谷的頭部玩家們不約而同地選擇了閉源路線。OpenAI、Anthropic、Google的Gemini,當前沿技術創新被鎖死在各自的資料中心裡,玩家們不可避免地陷入了零和博弈的“權力遊戲”。就在V4發佈前夕,一場圍繞新模型的輿論狙擊戰剛剛上演——4月16日Anthropic剛發佈Claude Opus 4.7,OpenAI兩個多小時後便宣佈Codex大幅更新;隨後又圍繞營收資料互相拆台,敵意滲透進每一個決策環節。而DeepSeek走了一條完全不同的路。它聚焦基礎模型的核心能力攻堅,進一步築牢了全球開源大模型的性能天花板,為全行業提供了性能比肩閉源旗艦的基礎底座。巧合的是,就在V4發佈前後,國內的Kimi也開源了K2.6,兩個兆參數模型同時亮相,卻沒有一絲互掐,甚至還在技術底層進行了“換防”。正如大量評論所指出的,這背後是中美AI路線的一次分岔:矽谷在“造牆”,守住既得利益;中國在“修路”,走開源協同之路。這種路線的分野,背後是根本邏輯的差異。閉源路線的本質是技術作為“護城河”和賺錢的工具,一旦共享就會失去競爭優勢;而開放原始碼的邏輯是模型越開放,生態越繁榮,蛋糕才能越做越大。網際網路巨頭:戰火從“參數比拚”燒向“應用落地”。DeepSeek V4發佈僅一天後,阿里雲百煉就火速上線,API價格與官網一致;國家超算網際網路同步上線服務。科大訊飛、中關村科金、華為昇騰等廠商也在第一時間完成了適配對接。對於騰訊、字節跳動、阿里這樣的巨頭來說,V4的衝擊更多是戰略層面的:以前大家的競爭焦點是“誰的模型參數更大、榜單更高”,現在V4用700倍的成本優勢提醒所有人——接下來真正決定勝負的戰場,是誰能在真實業務場景中用模型創造價值。誰先學會“用好V4”,誰就可能在下一階段佔據卡位優勢。各行各業:一次從“能不能用”到“用不用得起”的跨越。在此之前,企業引入大模型最大的瓶頸不是技術夠不夠好,而是成本夠不夠低。一次API呼叫幾十上百美元的成本,對中小企業來說等於把AI鎖在實驗室裡。V4的出現改變了這一切。在金融行業,國泰海通率先完成DeepSeek-V4基於昇騰的本地化部署,將依託模型實現在智能投行、智能投研、智能投顧、智能風控等八大業務領域的全面突破。保險行業聚焦投保、核保、理賠查勘等高重複性、知識密集型和互動高頻度場景展開部署。在醫療領域,深圳市南山區人民醫院基於昇騰率先部署V4,全面升級了政策諮詢、醫保監管、門診病歷質控等30余項應用,全方位覆蓋醫療全流程。廣西移動落地部署V4,聚焦行銷服務、研發設計等核心領域,全面賦能16個業務場景。河北交投智能科技公司在行業內率先完成V4本地化部署,建構了“自主創新算力+頂尖大模型”的全端自主創新AI底座。從金融到醫療,從通訊到交通——DeepSeek V4發佈後24小時內,各行業頭部企業就火速跟進部署。這本身就是最好的訊號:當AI足夠便宜,企業就不再觀望。“用得起”的真正意義,在於讓AI從實驗室資源變成基礎設施,從而催生前所未有的創新。三、AI便宜到人人敢用,模式才敢真變如果說過去兩年AI的變革是“天變了”,那麼V4之後,我們才第一次站在真正的變局起點上。為什麼這麼說?因為模式創新的土壤不是技術能力本身,而是足夠低的試錯成本。當一個團隊可以毫不心疼地跑十次不同提示詞、對比輸出質量而不是在意API帳單,產品經理可以大膽設想的每個互動都即時呼叫AI,企業可以把AI植入到那些“不太重要但希望更好的環節”——這才是模式創新真正開始的時候。DeepSeek V4的Agent能力經過了專門最佳化。在Agentic Coding評測中,V4-Pro已達到當前開源模型最佳水平,交付質量接近Claude Opus 4.6非思考模式;在世界知識測評中大幅領先其他開源模型,僅稍遜於頂尖閉源模型Gemini-Pro-3.1;在數學、STEM、競賽型程式碼等推理任務中超越所有已公開評測的開源模型。V4-Pro還在Codeforces程式設計任務中拿下3206分的測評成績,位列全球活躍使用者第23位。這意味著,過去只有頂級閉源模型才具備的強大執行能力,現在以1/700的價格向所有人開放。中小企業可以部署自動處理客戶問題的7×24小時AI客服系統;個體開發者建構的Agent能自主呼叫API完成多步任務;創業公司可以在產品中“鋪滿AI”,讓大模型程式碼改寫、文件生成、資料清洗成為功能的默認組成部分。當AI便宜到可以和“發一條簡訊”比較成本的時候,所有行業都值得重新問自己一個問題:如果AI呼叫幾乎是免費的,我的產品應該長什麼樣?四、Token經濟的興起:當消耗量三年增長一千多倍在把模型做得更高效、更便宜的同時,一個更深層的經濟變革正在發生。Token——大模型的基本計量單位——正在從後台技術參數變成AI經濟的前台結算單位。商湯科技大裝置產品總經理盧國強在2026中國生成式AI大會上提出的“AI Token Factory”概念,精準概括了這一趨勢:行業正在從“AI原生”邁向“Agent原生”,Token替代Flops成為新的度量衡,AI系統的核心使用者將從人轉向Agent。Token消耗量的增長數字令人震撼。國家資料局公佈的資料顯示,到2026年3月,中國日均Token呼叫量已超過140兆,相比2024年初的1000億增長了1000多倍,相比2025年底的100兆,短短三個月又增長了40%以上。中國工程院院士鄭緯民指出,AI產業的競爭核心正從MaaS(模型即服務)向TaaS(Token即服務)躍遷,從比拚算力叢集規模轉向比拚每瓦Token生產效率。圍繞Token經濟的整套產業邏輯正在逐步成型:生產層:對應算力、晶片、資料中心與推理引擎,把Token作為核心產品來組織基礎設施。分發層:對應雲平台、大模型廠商與API服務商,將底層能力打包按量計費分發。轉化層:對應各行業的AI原生應用和Agent系統,將Token轉化為實際的業務結果。阿里巴巴已正式成立Alibaba Token Hub事業群,騰訊雲將MaaS平台升級為TokenHub,行業從藍海迅速變為紅海。Token兩年激增千倍,智能體市場規模2025年達78.4億元,預計2026年將達135.3億元,增速超過70%。Token正從技術參數,變成AI時代最核心的生產資料和度量衡。誰能高效生產Token、精準分發Token、有效轉化Token,誰就能在智能經濟的新賽道上佔據先機。五、變局中的挑戰與耐心V4帶來的不可能全是好消息。巨大的機遇背後,挑戰同樣不容迴避。安全邊界重構需要時間。 當模型能夠讀取百萬token的超長上下文,風險不再只存在於使用者的當前問題中,而可能藏在龐大材料的某個角落——長長的郵件鏈的腳註裡、PDF的不可見區域中、程式碼註釋裡或歷史聊天記錄中。攻擊者可以把惡意指令藏在這些地方,在模型執行複雜的跨文件推理時“潛伏發動”。強制長上下文安全做前置治理,對使用者指令和外部資料做來源標註和風險掃描,已經成為迫在眉睫的工程需求。落地到用好有個過程。 企業部署了V4並不等於馬上獲得商業價值。從部署到真正融入核心業務流程創造收益,中間還有漫長的產品化、場景適配和組織變革之路。Token成本大幅下降後,產品經理如何在AI能力邊界內重新設計功能,才是決定成敗的關鍵因素之一。地緣政治與算力安全需要關注。 DeepSeek-V4首次在官方技術報告中,將華為昇騰與輝達GPU並列寫進硬體驗證清單,這是中國大模型首次將國產晶片與進口晶片放到了同等戰略高度。適配的昇騰新款推理晶片採購價格僅為輝達晶片的1/4,端到端延遲比原有叢集降低35%。輝達CEO黃仁勳此前警告稱:“如果頂尖的AI模型被最佳化在華為晶片上運行,對美國而言將是可怕的後果”。V4的發佈標誌著中國AI基礎設施的重心正從依賴美國半導體轉向本土化算力底座建構。但技術代差客觀存在,DeepSeek也坦承其能力整體落後於同期主要閉源對手約3至6個月。六、變局的開端才剛剛到來回到標題的那個判斷:DeepSeek V4是AI開源大事件,更是產業變革新開端。是的,事件已經發生——V4-Pro和V4-Flash雙雙開源,百萬上下文成為標配,API定價低至全球閉源競品的1/700,Agent能力逼近頂尖水平。但真正的變革才剛剛開始。因為V4真正的意義,不在於它本身有多強,而在於它重新定義了什麼才是AI產業真正的“兵家必爭之地” 。V4向行業宣告:當模型能力開始逐步趨同(開源會逐步追平閉源),真正決定勝負的將是:誰能讓AI更便宜、更易用、更快地融入真實世界。從長遠來看,AI產業的終極形態是:大模型成為像電力一樣的基礎設施,上面的Agent和智能應用才是創造價值的核心。而DeepSeek V4用700倍的成本優勢一次性把基礎設施的“電費”降到了幾乎可以忽略不計的水平。接下來,誰能在上面建造出更有創造力的智能應用,誰才是真正的贏家。2026年4月24日以前,AI還在比拚“能力的天花板”。從這一天開始,AI產業的真正競賽才剛剛開始。 (數字新財報)
飆升173.5%!AI晶片,突傳利多!
全球AI晶片產業,傳來利多消息!AI對晶片的需求依舊強勁。5月1日披露的資料顯示,韓國4月份半導體出口額同比飆升173.5%,達到319億美元,連續13個月刷新月度紀錄。AI資料中心的大規模投資,使得市場對高頻寬儲存器、DDR5、NAND快閃記憶體等產品的需求激增。此前一天,三星電子披露的財報顯示,該公司第一季度淨利同比增長474.3%至47.22兆韓元,主要得益於其晶片業務的強勁表現。該公司預計,伺服器記憶體需求將在下半年保持強勁勢頭。韓國晶片出口飆升儘管中東戰爭持續發酵且美國關稅變數猶存,韓國出口仍連續兩個月突破800億美元,為史上首次。全球科技公司人工智慧投資擴大帶動半導體及固態硬碟需求激增,成為韓國的出口主力。據韓國產業通商資源部5月1日發佈的《2026年4月進出口動向》,韓國4月出口額為858.9億美元(約合127兆韓元),同比增長48.0%。這是繼3月刷新歷史最高紀錄866億美元之後,月度出口額第二高的水平,連續兩個月出口額超過800億美元。按工作日計算的日均出口額為35.8億美元(約合5.3兆韓元),連續三個月超過30億美元。韓國4月進口額增長16.7%,達到621.1億美元。由此,韓國4月貿易收支實現237.7億美元(約合35兆韓元)順差。這一順差額較去年同期擴大189.7億美元。自去年2月以來,韓國貿易收支已連續15個月保持順差。半導體是韓國出口增長的主要動力。4月份,韓國半導體出口額同比飆升173.5%,達到319億美元。繼3月的328億美元之後,連續兩個月出口額超過300億美元,並連續13個月刷新月度紀錄。這一增長歸因於AI伺服器投資擴大,帶動了對高頻寬儲存器、DDR5、NAND快閃記憶體等高附加值儲存產品的需求激增。實際上,與一年前相比,儲存產品的固定價格已大幅上漲:DDR4 8Gb上漲870%,DDR5 16Gb上漲662%,NAND 128Gb上漲766%。AI基礎設施擴張的利多也延伸至包括固態硬碟在內的電腦出口。4月份,韓國電腦出口額飆升515.8%,達到40.8億美元,連續兩個月創下月度新高。在新產品銷售的帶動下,無線通訊裝置出口額也增長11.6%,達到16.2億美元。韓國產業通商部長官金正官表示:“儘管中東戰爭已持續兩個多月,但我們歷史性地實現了連續兩個月出口額超過800億美元、貿易順差超過200億美元的成就。”他補充道,“這一成果源於在全球AI投資擴張和油價上漲背景下,我們的企業主動確保了供應鏈。”他進一步表示:“鑑於核心產品競爭加劇和原材料供應不穩定導致出口波動性增加,我們將通過行銷、金融和保險支援以及出口市場多元化政策,最大限度減輕企業負擔。”三星電子淨利暴增本周四,三星電子公佈的財報顯示,公司第一季度營收同比增長69%,達到133.9兆韓元,超出市場預期;營業利潤為57.23兆韓元,同比增長756.1%,超出預期的55.28兆韓元;淨利潤為47.22兆韓元(約合318億美元),同比增長474.3%。該公司表示,隨著客戶在人工智慧領域的支出增加,預計明年嚴重的供應短缺將加劇,從而推高其記憶體晶片的價格。三星電子創紀錄的盈利主要得益於其晶片業務的強勁表現,該公司是儲存晶片、半導體代工服務和智慧型手機的主要生產商。這家全球最大的記憶體晶片製造商表示,已與客戶簽署多年期約束性合同,希望鎖定供應,但未透露客戶身份或具體條款。AI資料中心建設的蓬勃發展促使三星電子和其他晶片製造商將產能轉向先進晶片。即便如此,晶片製造商仍難以滿足市場需求,同時這也加劇了傳統晶片的供應緊張。三星電子儲存晶片業務高管Kim Jaejune在財報電話會議上告訴分析師:“我們的供應遠不能滿足客戶需求。僅根據目前收到的2027年需求來看,2027年的供需缺口預計將比2026年進一步擴大。”他表示,人工智慧技術的持續發展將轉化為持續的需求增長,但考慮到新建工廠所需的時間,供應在短期內仍將受到限制。在供應有限的情況下,輝達等晶片製造商推動了對HBM的需求。三星電子預計,隨著超大規模資料中心持續推進人工智慧應用,以及對智能體人工智慧的需求加速增長,伺服器記憶體需求將在下半年保持強勁勢頭。三星電子表示,中東衝突並未影響晶片生產,因為公司已確保庫存充足並實現了生產用氣體來源多元化。然而,該公司也指出,油價上漲可能導致運輸成本增加,並表示將與韓國政府合作,確保電力供應穩定。三星電子透露,公司已於今年2月開始為輝達的Vera Rubin平台量產銷售業界首批HBM4晶片,並預計今年HBM晶片的收入將比去年增長三倍以上。公司還表示,預計今年將大幅增加資本支出,以滿足人工智慧的需求。 (券商中國)
未來十年(2026-2036)高潛力產業方向
未來十年,那些產業有可能會迎來真正的增長?倘若你對技術、經濟或者職業方向滿懷興趣,興許會心生好奇:在未來的十年當中,那些領域能夠切切實實地實現增長呢?答案隱匿於這四股力量之中——包括人口老齡化,能源轉型,人工智慧的滲透以及全球供應鏈的重構。它們共同促使著六個大方向向前邁進,除此之外,還有幾個疾速飛奔的小賽道。每個賽道方向本文僅關注三個核心問題:具體涵蓋那些領域(核心賽道),增長背後的硬驅動是什麼(驅動因素),實際的機會落腳點在那裡(主要機會)。下面逐一梳理,只說事實和邏輯。在面向2036年時,這六大具備高潛力的賽道,以及諸多新興領域,將會共同建構起未來十年的經濟全新圖景。不管是由技術驅動的算力革命和能源轉型,還是因社會結構變遷而催生的銀髮經濟與孤獨消費,全都指向一個更為智能、更為綠色、更為人性化中的時代。對於個體而言,關鍵並不在於去追逐所有的風口,而是在於精準找到自身資源與行業拐點的相契合之處,抑或是深耕於技術壁壘所在,或是精心打磨服務細節方面,又或是在產業鏈的縫隙裡發現價值。已經到來的是未來,唯一不變的是變化,只有順著形勢去做,並且早早佔據關鍵位置,才能夠在新的一輪增長的浪潮當中獲得一個立足的地方。 (TOP行業報告)
光模組產能持續釋放,下一個瓶頸輪到材料了?
隨著AI資料中心建設浪潮持續推升光通訊需求,以“易中天”為首的光通訊產業鏈都交出了頗為亮眼的業績。同時,多家廠商也透露了擴產計畫,例如中際旭創日前在業績會上透露,公司的1.6T產品已經在量產出貨,且預計會保持每個季度出貨量環比提升;3.2T產能正在準備中,尚未到送樣階段。目前行業需求旺盛,公司唯有加大和加快產能建設來保障交付。目前部分原材料供給偏緊張。天孚通訊則在4月22日的業績說明會上表示,公司的1.6T光引擎處於量產狀態,目前因為個別物料缺料尚未達到預期產量,在積極協調供應商,努力爭取更多交付。技術升級迭代趨勢與產業擴產潮勢必將帶動上游核心材料的需求。華泰證券在研報中表明,在上游材料中看好磷化銦(InP)襯底與薄膜鈮酸鋰兩個方向:隨著近年800G、1.6T光模組需求量快速提升,以及未來3.2T時代漸行漸近,看好光模組上游核心材料的發展機遇,其中InP襯底作為光晶片上游核心原材料,受益於光晶片廠商需求的快速拉動,行業呈現供不應求趨勢;薄膜鈮酸鋰製備的調製器基於低功耗、高頻寬等優勢,未來有望於3.2T可插拔方案中迎來匯入窗口期,產業鏈成長空間廣闊。值得注意的是,這也是深圳3月發佈的《深圳市加快推進人工智慧伺服器產業鏈高品質發展行動計畫(2026-2028年)》中,針對光模組特別提出的方向:推動光模組從800G向1.6T/3.2T代際升級,支援800G及以上光模組量產項目落地;推動高端薄膜鈮酸鋰、高端磷化銦等核心技術突破與規模化應用。▌磷化銦:擴產周期長 供需缺口持續擴大隨著高速光模組快速放量,供給端仍存在剛性約束,而磷化銦襯底便是材料環節供需緊張最為顯著的部分之一。磷化銦是光晶片中的核心材料,磷化銦襯底可用於製備CW、DFB、EML等邊發射雷射器晶片和PIN、APD探測器晶片。資料顯示,2025年全年磷化銦襯底缺口超200萬片,6英吋射頻級價格漲至1.8萬元/片。而在光晶片BOM中,襯底佔比較高。以新“股王”源傑科技招股書披露的資料為例,公司2022年1~6月的主要原材料採購中,襯底採購金額佔比為27.21%,是BOM中最大的單一品類。目前,全球磷化銦襯底供應商已相繼開啟加速擴產。其中,美國AXT今年2月透露,公司磷化銦襯底積壓訂單超6000萬美元,創歷史新高,且多個客戶正與公司簽署長協,AXT目標至2026年底將產能較2025年底提升一倍;Lumentum磷化銦晶圓廠產能已全部分配完畢,未來幾個季度擬擴充約40%單元產能;國內雲南鑫耀投資1.89億元擴建年產30萬片(折4英吋)高品質磷化銦單晶片生產線。但券商指出,由於擴產周期長達2-3年,磷化銦供需缺口預計仍將持續。華泰證券認為,展望未來,隨著高速光模組市場規模近年來快速擴張,其在磷化銦下游市場中的比重有望進一步提升。且考慮到相較於此前主流應用於電信市場的DFB晶片等中低端產品,200G EML、超大功率CW光源(400mW,未來有望應用於CPO場景)等高端產品的生產難度更高、良率較低、晶片面積更大,所消耗的磷化銦襯底數量預計更多,或有望推動磷化銦襯底需求量呈現加速增長趨勢。▌薄膜鈮酸鋰:或成下一代高速光訊號主流調製材料隨著AI晶片持續迭代升級,資料中心光模組已實現從400G、800G到1.6T的演進。LightCounting今年1月發佈的資料顯示,2026年全球乙太網路光模組市場規模有望達260.84億美元,其中800G及1.6T光模組合計滲透率較2023年提升53.67個百分點。在此趨勢下,3.2T光模組或迎來加速匯入,LightCounting預計2028年3.2T光模組市場規模有望達13.96億美元,2031年有望提升至240億美元。而3.2T光模組單通道調製速率需達到400G,華泰證券指出,薄膜鈮酸鋰迎來匯入機遇。據其測算,2031年僅3.2T光模組帶動的薄膜鈮酸鋰調製器市場空間有望近30億元,對應2029~2031年CAGR達271%。從性能上來說,依託鈮酸鋰材料本身的強線性電光效應(Pockels效應),薄膜鈮酸鋰能在低驅動電壓下實現大頻寬、高線性度(高保真)的光訊號調製,這使其適用於中長距離和高頻寬的光傳輸應用,如骨幹網、都會網路等高速資料鏈路。此外,薄膜鈮酸鋰具有高折射率對比和良好的光場約束,可實現更高整合度,改善器件尺寸和功耗。中金公司也指出,在光調製器領域,薄膜鈮酸鋰相比磷化銦、矽基兩類材料,在高頻寬、低驅動電壓和高線性度等方面具有優勢。隨著AI通訊網路加速向單波400G及更高傳輸速率邁進,傳統材料的性能侷限性逐漸顯現,薄膜鈮酸鋰有望成為支撐未來更高速光傳輸調製環節的重要材料。薄膜鈮酸鋰的產業鏈可劃分為鈮酸鋰晶體材料-薄膜鈮酸鋰晶圓-薄膜鈮酸鋰調製器(晶片),各環節均具備較高技術壁壘,中國廠商在以上各領域均已取得積極進展。其中,光學級鈮酸鋰單晶的制取是產業鏈的最上游環節,此前該市場長期被日本廠商壟斷,目前國內的天通股份、南智芯材等廠商已實現國產化突破;薄膜鈮酸鋰晶圓核心工藝是在矽材料的襯底上進行鍵合等,國內頭部廠商包括濟南晶正、上海新矽聚合等;薄膜鈮酸鋰調製晶片廠商則通過光刻、物理轟擊刻蝕或化學機械拋光工藝,製備TFLN晶片,全球代錶廠商包括江蘇鈮奧光電、Hyperlight等。 (科創板日報)
史丹佛423頁AI報告出爐!中美差距僅2.7%,清華DeepSeek衝進全球前十
史丹佛「2026年AI指數報告」重磅出爐!這份432頁長文含金量極高:中美AI巔峰對決,差距幾乎抹平,縮減至僅2.7%。全球頂尖AI年產95個,基本都聚集在大廠。最殘酷的是,22-25歲開發者的就業已被切掉20%。今天,史丹佛HAI重磅發佈「2026年AI指數報告」!這份長達423頁的年度報告,全面揭示了全球AI產業的最新權力版圖。它給出了一條核心結論:AI的本事漲得飛快;但人類衡量和管好它的能力,卻沒怎麼跟上步伐。其中,最震撼的結論是——中美AI模型性能差距已基本消失,雙方在巔峰對決中頻繁易主,目前Anthropic領先優勢僅剩2.7%。美國在AI上砸的錢比誰都多,但招攬頂尖人才卻越來越吃力了。報告還指出,AI的進化不僅沒有遭遇所謂的「瓶頸」,反而正以史無前例的速度狂飆。過去一年,全球超90%的頂尖模型,在博士級科學問題、多模態推理、競賽數學上的表現,追平甚至超越了人類。特別是在程式碼能力上,SWE-bench的成績在一年內,從60%飆升至近100%。然而,AI的「偏科」現像極其嚴重,呈現出一種畸形的現狀:LLM可以拿下IMO金牌,卻讀不對模擬時鐘,正確率僅為50.1%。與此同時,AI搶飯碗這事兒已經從預測變成了現實,而且最先遭殃的就是當代年輕「打工人」。下面直接上乾貨,「2026年AI指數報告」最值得關注的12個硬核趨勢。其他亮點速覽:全球AI算力3年漲30倍,輝達獨佔60%,幾乎所有晶片都出自一家台積電2025年全球企業AI投資5817億美元,同比翻倍,美國一國吃下近一半進入美國的AI研究人員7年跌89%,僅過去一年就跌80%22-25歲軟體開發者就業自2024年起下滑20%,入門崗位被精準切掉中國累計建成85台公共AI超算,是北美的兩倍以上,全球第一中國職場AI使用率超80%,遠超全球58%的平均最強模型越來越黑箱,95個代表性模型裡80個沒有公開訓練程式碼中美貼臉差距只剩2.7%史丹佛把2023年5月以來Arena榜單上的美國第一和中國第一,畫在了同一張坐標系裡。2023年5月,gpt-4-0314拿1320分領跑,中國這邊還是chatglm-6b,差距300多分。2025年2月,DeepSeek-R1第一次和美國頭部模型短暫打平。2026年3月,美國的Claude Opus 4.6拿到1503分,中國dola-seed-2.0-preview拿到1464分。如今中美AI之間的差距,僅有39分。換算成百分比,2.7%。更值得說的是過去一年的換位頻率。從2025年初開始,兩國頭部模型已經在Arena上你來我往換了好幾次位置。數量上同樣接近五五開。2025年美國發佈了50個「顯著模型」,中國緊跟著也發佈了30個頂尖大模型。第一梯隊裡OpenAI、Google、阿里、Anthropic、xAI同台站位,全球TOP 5五五分帳。再往下看到TOP 10,中國機構和企業佔了四席,阿里、DeepSeek、清華、字節。開源生態這一年的重心也明顯東移。DeepSeek、Qwen、GLM、MiniMax、Kimi一路把開源權重的能力曲線往前推。再算上論文發表量、被引數、專利產出量、工業機器人裝機量,中國統統全球第一。價格層面是另一條戰線。海外開發者在X上算過一筆帳,Seed 2.0 Pro的輸出價格大約只有Claude Opus 4.6的十分之一。性能貼臉,價格只要十分之一。這件事的連鎖反應才剛剛開始。90%前沿模型出自產業封神速度史無前例去年發佈的95個最具代表性的模型裡,超過九成都來自產業界,不是學術機構,也不是政府實驗室。學術界已經追不上前沿了。發佈速度也在變態加速。光是2026年2月一個月,就有Gemini 3.1 Pro、Claude Opus 4.6、GPT-5.3 Codex、Grok 4.20、Qwen 3.5、Seed 2.0 Pro、MiniMax M2.5、GLM-5八九個旗艦模型同月入場。封神周期從「年」變成了「月」。基準一年封頂AI沒有瓶頸最猛的曲線是程式設計。SWE-bench Verified這個真實修Bug的基準,一年時間從60%漲到接近100%。不是漲了幾個點,是基本封頂。Terminal-Bench測試Agent處理真實終端任務的能力,從去年的20%漲到77.3%。網路安全Agent解決問題的成功率,從15%漲到93%。Gemini Deep Think在國際數學奧林匹克拿到金牌。PhD級科學問答(GPQA Diamond)、競賽數學(AIME)、多模態推理(MMMU)這些原本被認為「人類不可超越」的硬骨頭,全部被前沿模型啃了下來。最能說明問題的是Humanity's Last Exam。這是一個專門被設計來「難倒AI、偏袒人類專家」的測試,題目由各個領域的頂尖專家提供。去年OpenAI的o1拿到8.8%,前沿模型在一年時間裡把分數往上又推了30個百分點,目前Claude Opus 4.6和Gemini 3.1 Pro已經雙雙過了50%。鋸齒前沿能拿IMO金牌卻看不懂表但同一份指數甩出了另一組數字。最強模型在「讀模擬時鐘」這個任務上的正確率,是50.1%。機器人在實驗室模擬環境(RLBench)裡的操作成功率已經達到89.4%。但搬到真實家庭場景裡完成洗碗、疊衣服這類家務,成功率立刻掉到12%。實驗室和廚房之間,差了77個百分點。研究者把這種現象命名為「鋸齒前沿」(jagged frontier)。AI能力的分佈是凹凸不平的,能拿數學奧賽金牌,卻沒法穩定地告訴你現在幾點。AI能在數學奧賽拿金牌,但只有一半的機率能看懂模擬時鐘。AI在加速,但加速的不是同一個方向。另外,在智能體任務中,OSWorld測試中,前沿AI實力(66.3%)正逼近人類基線。然而,在專門評估科研邏輯的PaperArena測試中,最強AI加持的Agent,得分僅39%,只有博士生一半的功力。但這種凹凸已經不影響企業把AI往生產線上塞。AI Index給出的另一個數字是,全球企業AI採用率達到88%。九成的公司已經把AI接進了某個工作流。代價同步在漲。AI相關事故記錄從2024年的233起漲到362起。錢在加速5817億砸進AI2025年全球企業AI投資達到5817億美元,同比增長130%。其中私募投資3447億美元,同比增長127.5%。兩條曲線都幾乎翻倍。國別上,美國一騎絕塵。2025年美國私募AI投資2859億美元。並且一年新增1953家AI創業公司,也是排名第二的10倍以上。錢在加速湧向美國。但美國的另一項核心資源,正在反向流動。人在流走進美國的AI研究者跌了89%裡面有一組數字讓人愣了一下。2017年到現在,進入美國的AI研究人員和開發者數量下降了89%。更關鍵的是,這個下降在加速。僅僅過去一年,下降幅度就達到80%。美國仍然是全球AI研究人員密度最高的國家,但流入的水龍頭正在擰緊。錢和人這兩條曲線開始反向。這是過去十年沒出現過的局面。算力三年漲30倍命門都在一家公司手裡AI能力曲線在加速,背後那條算力曲線跑得更猛。從2021年到現在,全球AI算力總量漲了30倍。過去三年裡,每年都在翻三倍以上。撐起這條曲線的是少數幾家公司。輝達一家的GPU,佔據了全世界AI算力的60%以上。亞馬遜和Google靠自研晶片排在二三位,但加起來也遠遠追不上輝達。而幾乎所有這些晶片,都來自一家代工廠,台積電。算力曲線越陡,命門就越窄。與此同時,代價也在加大。全球AI資料中心的總功率已經達到29.6 GW,相當於紐約州在用電高峰時段的全部用電需求。xAI Grok 4一次訓練的估算碳排放是72816噸二氧化碳當量,相當於17000輛汽車開一整年的尾氣。資料中心建在那裡,電從那裡來,晶片從那裡產,這三個問題已經變成今年所有AI公司CEO案頭最頭疼的事。生成式AI三年滲透53%中國職場使用率破80%生成式AI在三年內達到了53%的全球人口滲透率。這個速度比個人電腦快,比網際網路快。但滲透速度和國別相關性極強。新加坡61%,阿聯54%,都跑在美國前面。美國在調查覆蓋國家中只排第24位,滲透率28.3%。如果把維度從消費者換成職場,反差更大。報告裡另一組資料顯示,2025年全球58%的員工在工作中已經開始經常性使用AI。但在中國、印度、奈及利亞、阿聯、沙烏地阿拉伯這5個國家,這個比例超過了80%。中國的職場AI滲透率,已經比全球平均高出20個百分點以上。更有意思的是消費者價值。AI Index估算,到2026年初,生成式AI工具每年給美國消費者創造1720億美元的價值。從2025年到2026年,每個使用者的中位數價值翻了三倍。絕大多數使用者用的還是免費版。普通人願意為AI付的錢,遠低於AI給他們創造的價值。這中間的剪刀差是現在所有AI公司都在試圖彌合的東西。入門崗位銳減22-25歲開發崗狂砍20%整份AI Index裡最讓中文讀者沉默的,可能是關於年輕就業的部分。22到25歲的軟體開發者群體,從2024年至今,就業人數下降了大約20%。同期,年紀更大的同行群體反而在增長。不止開發崗。客服等其他高AI暴露行業,也在出現同樣的模式。更讓人擔心的是企業問卷的結果。受訪高管普遍預期,未來的裁員幅度會比過去幾個月還要大。這不是宏觀失業率的事,是入口崗位被精準切掉的事。第一份工作沒了,整個職業階梯就斷了一格。這件事的長期影響,現在沒人能算清。AI正在改寫科學發現的方式如果說就業那一段是冷的,科學這段就是熱的。自然科學、物理科學、生命科學領域的AI相關論文,2025年同比增長了26%到28%。具體到應用,今年第一次有AI完整跑通了端到端的天氣預報流程。從原始氣象觀測資料直接吐出溫度、風速、濕度的最終預報,中間沒有任何傳統數值模型介入。AI從「幫你寫論文」「幫你算數字」,正在變成「自己做發現」。醫院裡也是一樣。2025年大量醫院開始部署能從就診對話自動生成臨床記錄的AI工具。多個醫院系統的醫生反饋,寫病歷的時間減少了多達83%,工作倦怠顯著下降。但同一份指數給醫療AI潑了一盆冷水。一份針對500多個臨床AI研究的綜述發現,將近一半的研究依賴考試題式的資料集,只有5%用了真實臨床資料。AI能減少醫生敲鍵盤的時間,這件事是確定的。AI在真實病人身上的臨床價值,目前還有大量問號。自學浪潮全球開炸正規教育已經掉隊正規教育跟不上AI了。美國有4/5的高中生和大學生現在用AI完成學校作業。但只有一半的中學有AI使用政策,只有6%的老師認為這些政策寫得清楚。學生跑在前面,老師還在原地,規則還沒出現。正規教育跟不上的同時,自學浪潮在全球開炸。裡面寫,學AI工程技能增長最快的三個國家分別是阿聯、智利和南非。不是美國,不是歐洲。技能曲線的最陡峭的那一段,長在所有人都沒在看的地方。最強模型變成最不透明的專家和公眾撕裂最強的模型,正在變成最不透明的模型。Foundation Model Transparency Index今年的平均分從去年的58分跌到了40分。AI Index直接點名,Google、Anthropic、OpenAI都已經放棄公開最新模型的訓練資料規模和訓練時長。去年發佈的95個最具代表性的模型裡,80個沒有公開訓練程式碼。公眾的情緒也變得更複雜。全球範圍內,認為AI利大於弊的比例從52%上升到59%。但同期,對AI感到緊張的比例從50%上升到52%。兩個方向在同時增長。最分裂的是美國。只有33%的美國人認為AI會讓自己的工作變得更好,全球平均是40%。美國人對本國政府監管AI的信任度,是受訪國家裡最低的,31%。新加坡人對自己政府監管AI的信任度,是81%。最近Sam Altman家被襲擊的事件之後,矽谷圈內人「驚訝地發現」Instagram評論區裡的普通人對此並不同情,甚至有人覺得「應該更激烈一點」。他們沒意識到事情已經糟到這個程度。研報引用的Pew和Ipsos資料,專家和公眾在AI影響就業、醫療、經濟這些維度上的觀感差距,普遍超過30個百分點,最大的一項達到50個百分點。一邊是實驗室裡的曲線在飛漲,一邊是普通人心裡的不安在累積。中間沒有橋。寫在最後423頁的報告裡有幾百張圖表,但其實只畫了一張圖。橫軸是時間,縱軸是能力。模型能力的曲線在飛,算力曲線在飛,投資曲線在飛,採用率曲線在飛。其他全都在原地踏步或者向下。這就是2026年AI Index的全部內容。AI在加速。其他所有東西都在脫節。如果你是這個行業裡的人,現在該問的問題不是「未來會怎樣」,而是「自己站在那一條曲線上」。 (新智元)
自立自強再落一子:中國AI程式設計能力實現重要跨越
在數字經濟時代,高端AI程式設計能力就是數字世界的“工業母機”。它是智能體應用落地、工業軟體開發、產業數位化轉型的核心底座,更是決定一個國家數字產業安全與長期競爭力的關鍵底層技術。長期以來,這一核心領域始終被海外Claude、GPT等主流頂尖模型主導。國產大模型雖歷經多輪迭代追趕,但在複雜工程化程式設計、長程智能體任務等核心實戰場景中,長期處於跟跑狀態。4月2日,中國AI產業迎來了標誌性突破。阿里發佈新一代大語言模型Qwen3.6-Plus。此時距離阿里整合AI核心力量成立ATH事業群,僅過去兩周半。具體來看,千問3.6整體性能較千問3.5進步顯著,並且湧現出極強的智能體程式設計能力,在系列程式設計能力權威評測中,千問3.6程式設計表現超越2倍乃至3倍參數量的GLM-5、Kimi-K2.5等模型,比肩(直逼)全球最強程式設計模型Claude系列。這不是一次普通的企業產品發佈,而是中國科技自立自強在AI核心技術領域落下的關鍵一子。從榜單到實戰,國產模型叩開全球超級陣營大門AI模型的真實實力,從來不由自說自話的行銷定義,而是要經過權威評測的專業驗證、全球開發者的實戰檢驗。據CodeArena全球程式設計模型榜單最新資料,千問3.6-Plus登頂國產最強程式設計模型,綜合性能全球僅次於Claude Opus 4.6,超越OpenAI、Google、xAI等國際巨頭,紙面實力已達到世界領先模型水平。在更細分的專業評測中,Qwen3.6-Plus 在SWE-bench系列真實程式設計任務測試、Terminal-Bench2.0終端程式設計評測、NL2Repo長程程式設計任務測試,以及Claw-Eval、QwenClawBench等真實世界Agent能力評測中,表現可完全匹敵Claude Opus 4.5,整體性能已接近全球頂尖水平。這一系列評測結果的核心意義,不在於一個簡單的排名,而在於它打破了多年來“國產模型在高端程式設計領域只能跟跑”的行業共識:我們終於在數字世界的核心底層技術上,拿出了能和全球領先梯隊正面抗衡的成果。在實戰層面,作為全球最大的AI模型API聚合平台,OpenRouter被業內稱為全球AI模型的“實戰試金石”,平台呼叫量完全由全球開發者基於模型性能、穩定性、性價比自主選擇,是衡量模型真實落地能力的核心風向標。就在剛剛,發佈僅1天的千問新模型Qwen3.6-Plus,以1.4兆Token的日呼叫量沖上OpenRouter的日榜榜首,並打破了該平台的單日單模型呼叫量的全球紀錄,成為當下最受企業和開發者熱捧的大模型之一。據OpenRouter平台公開資料顯示,平台中國開發者佔比僅6.01%,模型的市場表現完全由全球開發者的真實使用需求驅動。值得關注的是,全球開發者的選擇,是對模型能力最客觀的投票。這意味著,不是我們自說自話模型的進步,而是全球最挑剔的技術使用者,已經認可了中國大模型的實戰能力。三次認知破局,走出中國AI自主創新路徑Qwen3.6-Plus的發佈,其核心意義遠不止於單次模型性能的提升,更在於它打破了行業長期存在的三大固有認知,為中國AI產業探索出了一條高效、自主、普惠的創新路徑。它首先打破了“參數越大越厲害”的行業迷信,走出了輕量化高效技術路線。長期以來,海外巨頭主導的AI行業陷入了“堆參數、堆算力”的內卷模式,將參數量作為衡量模型能力的核心標尺。而Qwen3.6-Plus以遠小於競品的參數量,實現了對參數量2-3倍模型的全面超越,用更低的算力消耗、更小的運行成本,交出了對標全球尖端水平的成績單。從產業發展的視角看,這不僅是演算法架構的核心突破,更意味著中國AI企業徹底擺脫了海外模型定下的內卷規則。當全球都在比拚誰的模型更大、誰燒的算力更多時,我們走出了一條更高效、更適合產業落地、更具長期競爭力的技術路徑,這正是中國AI實現彎道超車的核心底氣。它同時打破了“國產模型重跑分、輕實戰”的行業偏見,實現了工程化落地的核心跨越。過去,不少國產模型在標準化榜單中表現亮眼,但在真實開發場景中,面對複雜的倉庫級任務、多步驟長程規劃,往往出現程式碼跑不通、bug無法自主修復、任務理解偏差等問題。而Qwen3.6-Plus真正讓代理式程式設計從概念走向了現實:在前端網頁開發、倉庫級複雜程式碼任務等實測場景中,模型可自主拆解任務、規劃執行路徑、編寫程式碼、測試修復bug,直至全流程閉環完成任務。不僅能實現高品質程式碼修復,更擅長複雜的終端操作與自動化任務執行,在多個高難度長程規劃任務中取得了極優成績。對中國數字產業而言,這種工程化落地能力,遠比榜單上的分數更重要。只有能真正解決真實場景的複雜問題,能真正為產業創造價值,核心技術才不會淪為“花瓶”,才能真正築牢我們數字經濟的底層根基。它更打破了高端程式設計能力的高門檻壁壘,實現了尖端技術的普惠落地。程式設計能力的核心價值,不止於服務專業開發者,更在於讓普通人也能享受到數位技術的紅利。普通人只需一句簡單的自然語言指令,就能調動模型完成任務拆解、智能體系統編排,實現專業程式設計師數小時乃至數天才能完成的程式設計效果。最關鍵的是,Qwen3.6-Plus每百萬Tokens輸入最低僅2元人民幣,以極具競爭力的定價打破了海外巨頭的高端溢價格局。技術的終極價值,在於普惠。當頂尖的AI程式設計能力不再是少數企業、少數專業人士的專屬工具,而是能被小微企業、普通開發者低成本使用,它才能真正啟動整個數字產業的創新活力,這正是中國技術不同於海外壟斷巨頭的核心格局。全鏈路協同成型,中國AI進入體系化競爭新周期Qwen3.6-Plus的突破,不是單一企業的單點勝利,而是中國AI產業從單點突圍邁向體系化競爭的重要標誌。它首先補齊了高端智能體程式設計的核心技術短板,加固了數字經濟的安全防線。高端AI程式設計能力,是數字時代所有數字產業的核心底座,小到企業數位化管理系統、網際網路產品,大到工業控制軟體、關鍵領域資訊基礎設施,都離不開底層程式設計能力的支撐。國產模型在這一領域實現自主可控、比肩國際先進水平,意味著中國大幅降低了在數字核心技術上的對外依賴,從底層提升了數字經濟的安全保障能力。更重要的是,它標誌著中國AI的算力—模型—應用全鏈路協同已經成型,正式進入體系化競爭新階段。全球AI競爭的下半場,早已不是單一模型、單一技術的比拚,而是全產業鏈、全生態的體系化對抗。以阿里為代表的中國AI企業,已經建構起了完整的全鏈路生態:底層有自主可控的算力底座,為模型迭代提供穩定支撐。中層有核心模型持續突破,覆蓋多模態、生成式AI、智能體程式設計等核心賽道。上層有豐富的應用矩陣,能快速將模型能力落地到千萬企業和普通使用者手中。這種全鏈路協同的體系化能力,才是中國AI能和全球頂尖巨頭長期同台競技的核心底氣。單點技術的突破或許能帶來一時的熱度,但只有完整的、自主可控的產業生態,才能讓我們在全球科技競爭中站穩腳跟,不被“卡脖子”。與此同時,中國模型正在以普惠價值打破海外技術溢價,為全球AI產業提供了中國方案。長期以來,海外巨頭憑藉技術壟斷,維持著頂尖AI模型的高溢價,讓全球大量中小企業、普通開發者難以享受到技術紅利。而以Qwen3.6-Plus為代表的國產模型,以極高的性價比,為全球開發者提供了對標全球領先水平的全新選擇,正在改變全球AI產業的供給格局,讓更多市場主體用得上、用得起尖端AI技術,為全球AI產業的普惠發展貢獻了中國企業方案。科技自立自強,從來不是一句空洞的口號,而是靠一項項硬核技術突破、一次次向全球頂尖水平的衝鋒,一步一個腳印拼出來、幹出來的。從跟跑到並跑,中國AI在程式設計這一“數字工業母機”領域實現重要跨越,再次印證:在高端科技領域,中國企業完全有能力走出一條自主創新的發展道路,拿出世界一流的技術成果。全球AI競爭的下半場,拼的從來不是參數噱頭、行銷概念,而是實打實的技術實力、產業落地能力與體系化競爭力。從產業規律來看,真正的長期競爭優勢,不在於單一模型的性能參數,而在於能否建構完整的技術生態、能否為開發者和使用者創造持續價值。值得肯定的是,以阿里為代表的中國科技企業,正朝著這一方向穩步前進,紮根真實市場需求,推動技術與產業深度融合,走出了一條自主創新與開放合作平行的發展道路。 (環球時報)
儲存晶片擺脫周期? 一個被AI誤導的產業幻覺
2025Q2,全球記憶體市場迎來了一輪罕見的劇烈上漲,DDR5 價格在短短一年時間裡,從每 GB 約 3–4 美元飆升至 15美元以上,部分高端規格產品的價格更是突破了這一區間。DDR4在需求不斷下跌的情況下,因為供給瞬間暴跌,導致價格飆漲的更為誇張從每 GB 約 1-2 美元飆升至 15美元,在2025年底到2026年初,甚至出現DDR4每GB價格比DDR5還高的倒掛現象。為何壓根沒需求,需求每年下降的DDR4價格比DDR5長得還高?核心原因是三大同時間宣佈停止生產DDR4,將產線轉進DDR5,全球DDR4供給瞬間減少6成以上,導致DDR4價格暴漲,因為需求可能每年下降10%,但供給暴降60%,瞬間造成了供需緊張。而DDR4的價格更高,毛利更高,會讓三大回心轉意減緩DDR4的停產嗎?當然不會,因為DDR4沒有需求,需求在下降,甚至DDR5需求也很一般,每年只有微幅上漲,從消費級電子就能看出DDR5的需求不會太好。那三星,海力士,美光三大原廠為何要放棄DDR4全面轉進DDR5呢?DDR5需求同樣一般。核心就在HBM,這一波儲存的需求拉動完全在AI沒有其他,而AI需要的是大量的HBM,生產HBM必須先做DDR5顆粒再層層堆疊,目前的HBM4是12層,未來會有16層,也就是佔用DDR5顆粒會越來越多。最終導致DDR5漲價的原因也是供給被大量HBM擠佔,供給減少造成供需不平衡。這就是三大為何毅然決然放棄價格更高,毛利更高的DDR4全面轉進DDR5的核心原因,HBM緊缺需要更多DDR5顆粒,用DDR4的舊產線升級最快,不用在新建廠房,所以必須把DDR4騰出來升級DDR5,為的只有一件事 - HBM。只有HBM的需求是不斷增加的,DDR4跟DDR5需求是減少跟持平,但價格大漲。大家搞明白這兩年的儲存漲價邏輯才能對未來做出正確判斷,如果你不懂產業邏輯,憑藉網路上看的有頭沒尾的文章,這會讓你的認知片面化,切入點單一化非常容易做出錯誤判斷,尤其是在瞬息萬變的儲存市場。去年開始筆者在知識星球就開始跟同學灌輸儲存市場的很多底層邏輯,就是擔心從未經歷過儲存周期的同學們,在儲存高漲的時候出現不切實際跟脫離產業的幻想。我想這正是加入筆者知識星球的最大好處,對整個產業有高維度的宏觀認知,這是做投資的基石。所以真心建議加入筆者知識星球,掃文章末尾二維碼即可加入,知識付費。儲存產業是否會復刻先進邏輯製程的發展路徑,進入長期漲價的結構性時代?這個問題看似符合產業發展的 “技術直覺”,畢竟無論是 CPU、GPU 這類邏輯晶片,還是 DRAM 這類儲存晶片,本質上都是在wafer上堆疊電晶體,依靠摩爾定律,也就是製程工藝的持續進步提升單位面積的電晶體密度。既然先進邏輯製程能夠在每一代技術迭代中實現產品價格的持續提升,同為半導體產業核心品類的儲存,為何不能走上同樣的道路?但如果拋開表面的技術相似性,從數學邏輯與產業本質的底層維度分析,『儲存長期漲價』或者『儲存周期特性結束』 的結論其實站不住腳。更進一步說,這一輪看似具備結構性特徵的儲存價格上漲,恰恰在更高維度再次驗證了儲存產業的核心屬性,它不僅是典型的周期行業,而且受產業底層規律約束,幾乎不可能擺脫周期的桎梏。一、表象相似:都是電晶體,卻有完全不同的命運很多人被「電晶體縮放」的表面規律所誤導,認為邏輯晶片能靠製程進步提價,儲存也能走同一條路。畢竟兩者的技術核心都是通過縮小電晶體尺寸,在同樣大小的 wafer 上塞進更多基本單元,從而實現成本最佳化。先看一組公認的產業資料,無論是邏輯還是儲存,製程進步的確帶來了單位成本的下降:邏輯晶片:製程越先進,晶圓越貴,但單位電晶體成本越低台積電 3nm 晶圓價格是 14nm 的 3 倍多,但每平方毫米能塞的電晶體數是 14nm 的 8 倍多,攤到每個電晶體的成本反而降了近 70%。簡單說,邏輯晶片是「買貴的晶圓,造更便宜的電晶體」。儲存晶片:同樣靠製程降成本,卻卡在物理極限DRAM 的核心單元是 1T1C(1 個電晶體 + 1 個電容),製程進步同樣能縮小單元尺寸,提升 bit/mm² 密度,但電容的物理特性讓它的微縮速度遠慢於邏輯電晶體。從 DDR3 到 DDR5,DRAM 的 bit 密度提升了 5-6 倍,每 bit 成本降了近 70%,看起來和邏輯晶片的成本最佳化節奏差不多。但關鍵差異在於,邏輯晶片的電晶體能持續微縮,而 DRAM 的 1T1C 單元自 2004 年後就卡在 6F² 的設計上,再也沒實現突破,這也是 DRAM 密度提升放緩的核心原因。目前DRAM行業準備進入4F²的3D DRAM時代,但真正推出產品還得是1d以後的節點,預計2028年~2029年才能真正進入4F²的3D DRAM時代。看到這裡有人會問:既然兩者都能靠製程降單位成本,為什麼邏輯能長期提價,儲存卻只能在周期裡掙扎?答案藏在「你賣的到底是什麼」這個本質問題裡。二、核心分歧:一個賣性能,一個賣容量,分母完全不同這是儲存和邏輯最根本的差異,也是解釋兩者價格走勢的關鍵。我們用兩個核心公式,把這個差異講透。邏輯晶片的定價邏輯 —— 賣的是性能,不是電晶體邏輯晶片(CPU、GPU、AI)的核心定價公式:Price logic ≈ f (Performance)。邏輯晶片的價格由「能解決多大的問題」決定,不是由「有多少個電晶體」決定,電晶體只是實現性能的手段。而性能和電晶體數量的關係是超線性增長:Performance ∝ Transistorα , α > 1 。電晶體數量的增長,會帶來性能的爆炸式增長(α > 1),簡單說就是「電晶體翻 10 倍,性能可能翻 20 倍、30 倍」。最典型的例子就是 AI 晶片:同樣是台積電 3nm 工藝,一塊 GPU 的電晶體數是傳統 CPU 的數十倍,其能運行的大模型參數量、推理速度是 CPU 的上百倍,因此它的售價能達到 CPU 的幾十倍,使用者依然願意買,因為單位性能的成本實際上是下降的。對資料中心來說,一塊貴的 AI 晶片能替代幾十塊普通晶片,節省的機房空間、電費、維護成本遠超晶片本身的價格,這就是「性能溢價」的核心邏輯。即使 wafer 價格越來越貴,只要性能提升的速度超過價格上漲的速度,使用者就願意為更高的價格買單。儲存晶片的定價邏輯 —— 賣的是容量,一個 bit 就是一個 bitDRAM 的核心定價公式:Pricememory ≈ f (Capacity),而單位容量的價值是恆定的。儲存晶片的價格由「能存多少資料」決定,1GB 就是 1GB,無論是用 DDR3 還是 DDR5 存,能存的資料量一樣,對使用者的價值也一樣。製程進步只能讓廠商用更低的成本生產 1GB 儲存,但無法讓 1GB 儲存的價值變高 —— 使用者不會因為你用了更先進的 1βnm 工藝,就願意為 1GB DDR5 付比 1GB DDR3 高的價格。這裡有一個關鍵的對比,能讓我們一眼看清差異:* 邏輯晶片:價格上升,但性能提升更快 → 使用者的「單位性能成本」下降 → 願意接受漲價;* 儲存晶片:價格上升,但容量不變 → 使用者的「單位容量成本」直接上升 → 會減少採購、選擇替代方案,市場天然壓制價格。簡單說,邏輯晶片是「越貴越值」,儲存晶片是「貴了就不買」,這是兩者價格走勢的本質區別。三、系統層約束:儲存不能貴,是一條物理 + 經濟定律如果你到了會思考產業且具備一定水平,你可能又會產生新的疑問 - 邏輯晶片漲價也會增加系統成本,為什麼只約束儲存?這個問題看似合理,但其實忽略了系統成本的計算邏輯,我們依然用公式解讀。系統總成本的構成與差異整個電腦系統的成本可以簡化為:System Cost=Compute+Memory但邏輯(Compute)和儲存(Memory)的成本計算方式完全不同。邏輯的系統成本:看的是「價格 / 性能」對邏輯晶片來說,真正影響系統成本的不是晶片本身的價格,而是單位性能的價格:Performance/Price只要這個比值在下降,即使晶片價格上漲,整個系統的運算成本也是下降的。比如一塊 10 萬元的 AI 晶片,性能是 10 塊 1 萬元普通晶片的 20 倍,那麼用這塊 AI 晶片的系統,單位運算成本只有原來的一半,企業當然願意選擇。儲存的系統成本:看的是「價格 × 容量」對儲存晶片來說,系統成本的計算方式是價格乘以容量:System Costmemory = Price × Capacity而在 AI 時代,儲存的容量需求是和算力同步增長的,甚至增長更快:Memory Demand ∝ Compute × K,K > 1也就是說,一個 GPU 的算力提升 10 倍,搭配的儲存容量可能需要提升 15 倍(K=1.5)。如果此時每 GB 儲存的價格再上漲 10 倍,那麼儲存的系統成本就會提升 150 倍,這是任何企業都無法承受的。這不是市場的選擇,而是物理和經濟的雙重約束,AI 算力的提升需要海量儲存的支撐,如果儲存價格長期上漲,整個 AI 產業的擴展就會戛然而止。因此,儲存價格必須在長期內維持穩定甚至下降,這是支撐科技進步的必要條件。四、資料實證:儲存的「1 美元地心引力」,邏輯的「性能溢價無上限」前面的公式解讀了理論邏輯,接下來我們用十幾年的產業資料,驗證儲存和邏輯的價格規律。重點看兩個核心指標:單位面積 wafer 的價值(Value/mm²) 和扣除周期波動的均衡價格。半導體的統一價值衡量標尺無論是邏輯還是儲存,都可以用這個公式衡量單位面積矽片的價值,這也是判斷一個半導體行業能否持續提價的核心指標 :Value  /mm2 = Density × Valueunit* Density:單位面積的基本單元數(邏輯是電晶體,儲存是 bit)* Value_{unit}:每個基本單元的實際效用價值。想要讓晶片持續提價(提升 Value/mm²),只有兩條路:要麼密度翻倍,要麼每個單元的價值變高。邏輯晶片兩條路都走通了,而儲存晶片兩條路都撞了牆。邏輯晶片 —— 密度和單位價值雙增長,Value/mm² 暴漲從 14nm 到 2nm,邏輯晶片的電晶體密度提升了 11 倍,而每個電晶體能實現的性能提升了 15 倍,兩者相乘,單位面積wafer的價值提升了 165 倍。這就是為什麼台積電 2nm 晶圓能賣到 3 萬美元一片,客戶依然排隊送錢 —— 因為這塊 wafer 能創造的價值,是 14nm wafer 的上百倍。儲存晶片 —— 密度慢增長,單位價值恆定,Value/mm² 微漲從 DDR3 到 DDR5,DRAM 的 bit 密度提升了 5 倍,但每個 bit 的價值始終不變,因此單位面積 wafer 的價值只提升了 6.2 倍,遠低於邏輯晶片的 165 倍。扣除地震、缺芯、AI 爆發等短期周期因素,三十多來DRAM 的每 GB 均衡價格始終圍繞1-3 美元波動,這就是儲存行業鼎鼎大名的「1 美元地心引力」,無論製程多先進,價格最終都會回歸到成本支撐的均衡區間。1美元地心引力這個概念是老半導體人耳熟能詳的DRAM規則,從歷史上看確實也是如此。不過2016年以後傳統資料中心因為巨量資料開始繁榮,儲存的價格有稍稍的墊高,加上這波AI熱潮,新進的且沒經歷過周期的投資者,幾乎沒有人知道所謂1美元地心引力。但是即使目前價格高企的 DDR5,其單位面積wafer的價值也只有邏輯晶片的幾百分之一,這也是儲存永遠成不了「高價品」的核心原因。DRAM 的 1T1C 儲存單元的密度直接決定了 bit/mm²,其變化規律和 bit 密度完全同步,從 DDR3 到 DDR5,每 mm² 能塞進的 1T1C 單元數從約 0.12 億個提升到 0.8 億個,提升了 6.7 倍,但由於單元尺寸卡在 6F²,這個提升速度遠慢於邏輯電晶體的 10 倍以上提升。簡單說,邏輯晶片是在「做乘法」,儲存晶片只是在「做加法」,這是兩者價值差異的核心資料支撐。五、為什麼儲存一定會有周期?供需的「超級反應」定律理解了價值和定價模型,我們就能輕易解釋儲存的周期性 —— 這不是市場情緒導致的,而是供需結構決定的必然結果。儲存的周期性動態公式Demand↑→ Supply↑↑ → Oversupply → PriceCollapse儲存需求的特點是體量巨大、高度同步,當 AI、手機、PC 需求同時上升時,整個市場會一起拉動儲存需求。而儲存供給端的特點是標準化程度高,技術路徑清晰,三星、海力士、美光三大廠商的擴產節奏幾乎一致。這就形成了一個典型的循環:需求剛剛上漲,三大廠就會同時大規模擴產,最終導致供給遠超需求,價格直接崩盤。歷史資料反覆驗證了這一點DDR3 時代:2011 年需求上漲→廠商擴產→2013 年供過於求→價格暴跌 50%。DDR4 時代:2017 年需求上漲→廠商擴產→2019 年供過於求→價格暴跌 60%。DDR5 時代:2025 年 AI 需求上漲→廠商開始擴產→預計 2027 年供給平衡維持高位→高價儲存導致消費級電子需求低迷→新技術導致AI對儲存容量增長減緩→2028年價格逐漸回落。而邏輯晶片幾乎沒有這種周期,核心原因是邏輯晶片的技術壁壘高、產品差異化大,台積電的 3nm 工藝獨步全球,NVIDIA 的 GPU 架構無人能敵,沒有企業能輕易擴產跟上需求,因此供需能長期維持相對平衡,價格也能保持穩定上漲。邏輯晶片如果競爭力不足,會體現在稼動率,而不是價格,製程節點價格永遠向上,不可能向下,但經爭力不足將導致稼動率崩盤,客戶只會選擇具備最高競爭力的Foundry。六、HBM 能改變儲存的周期宿命嗎?答案是:不能面對儲存的周期性質疑,很多人會拿 HBM舉例,HBM 賣的是頻寬和延遲,不是容量,定價邏輯和邏輯晶片一樣,能擺脫周期。HBM 的確具備了邏輯晶片的某些特徵,但其依然逃不過周期定律,核心原因有三,我們用資料和邏輯說明:產能槓桿效應:放大周期,而非消滅周期生產 1GB HBM 所需的晶圓面積是傳統 DRAM 的 2倍左右,加上良率耗損可能在3倍。AI 需求旺盛時,HBM 會抽乾通用 DRAM 的產能,導致全線漲價,而一旦 AI 需求增速放緩,HBM 釋放的產能會以 2-3 倍的壓力衝擊普通 DRAM 市場,導致價格暴跌,HBM 只是讓儲存的周期波動更劇烈,而不是消滅周期。又或者行業有其他替代方案,比如HBF會部分取代HBM,或者如Google的儲存壓縮演算法,如此一來龐大的HBM帶來產能,將沖垮DDR5,這正是三大原廠對擴產保守的一個核心原因。其實如果未來真的儲存百分百大爆發,向邏輯一般,不會因為某種新技術而被淘汰,那三大原廠必然是往死裡擴產,還擔心啥供給,他們保守以對必然有其核心邏輯。成本驅動而非價值驅動:高價是暫時的目前 HBM 的高價,主要來自於封裝良率低(良率不足 70%)和 TSV(矽通孔)工藝成本高,而不是其單位價值高。一旦工藝成熟、良率提升到 80% 以上,HBM 的成本會大幅下降,價格競爭依然會回歸 ,HBM 的高價是技術不成熟的結果,不是結構性的性能溢價。目前我們可以看到三大原廠對擴產的保守,目的就是長維度的維持高價格,但本質還是人為的利用供給手段來調控價格,即便未來儲存長時間維持高價,但依然沒有本質的改變。同質化競爭:沒有企業能壟斷技術三星、海力士、美光在 HBM 技術上的差距極小,沒有企業能像 NVIDIA 在 GPU 領域那樣形成技術壟斷。只要是同質化競爭,最終的競爭手段必然是「產能擴張 + 價格戰」,這是大宗商品的必然規律 ,HBM 依然是儲存,不是邏輯晶片。簡單說,HBM 只是「高級的儲存」,並沒有改變儲存,『賣容量(頻寬本質也是容量的一種體現)、單位價值恆定』的核心屬性,因此依然逃不過周期宿命。七、結語:儲存的周期,是物理和經濟的雙重必然2025-2026 年的這輪儲存超級周期,的確是 AI 驅動下的歷史性行情,但這並不意味著儲存行業的規律變了。儲存和邏輯晶片的根本差異,從來不在於電晶體和製程,而在於價值函數和單位面積價值潛力:* 邏輯晶片賣的是性能,性能隨電晶體超線性增長,因此能靠性能溢價實現長期提價,定價權掌握在企業手中。* 儲存晶片賣的是容量,容量的單位價值恆定,因此價格只能圍繞成本波動,定價權掌握在供需曲線手中。再加上 DRAM 的 1T1C 單元卡在 6F² 的物理極限,密度提升速度放緩,單位面積價值潛力幾乎見頂,儲存的周期性就成了物理和經濟的雙重必然。對於投資者和產業從業者來說,最危險的念頭就是「這一次不一樣」。當所有人都認為儲存擺脫了周期、會長期漲價時,往往就是下一個周期頂點降臨的時刻。AI 只是給儲存行業打了一劑強心針,讓它在短期內光鮮亮麗,但並沒有改變 DRAM 作為「科技大宗商品」的底層基因。儲存不相信奇蹟,只相信供需。這條底層規律,過去成立,現在成立,未來依然會成立。而這,正是儲存這個行業最難以改變、也最值得市場敬畏的底層規律,技術進步可以提升效率、降低成本,可以催生出高端的性能型細分品類,但始終無法改變其作為基礎元件的容量定價核心,也無法擺脫供需同步性帶來的周期桎梏。對於市場而言,認清儲存產業的周期本質,摒棄 “結構性漲價” 的幻覺,才能做出更理性的產業判斷與投資決策。加入知識星球,你將會得到比所有人更前瞻的行業動態與趨勢,沒有推票,只有最正統的產業邏輯去看投資市場,知識付費,掃文章末尾二維碼即可加入。(梓豪談芯)